查看原文
其他

学界 | 腾讯AI Lab解读多篇ACL 2018入选长文

腾讯AI Lab AI科技评论 2019-03-29

本文转载自腾讯 AI Lab,微信号 tencent_ailab。本文将详解 2018 年 NLP 领域顶级学术会议 ACL 上,腾讯AI Lab入选 5 篇文章中的 4 篇长文。

第 56 届计算语言学协会年会 ACL于 7 月 15 至 20 日在澳大利亚墨尔本举办。今年共收到 1621 篇投递论文,其中长论文 1045 篇,短论文 576 篇。除去不合格和被驳回的论文,组委会在 1018 篇提交的长论文中接收 256 篇,在 526 篇提交的短论文中接收 125 篇,总体录取率为 24.7%。

这是腾讯 AI Lab 第二次参加 ACL,共 5 篇论文入选(去年为3篇),涉及神经机器翻译、情感分类和自动评论等研究方向。下面将着重介绍其中4篇长文的研究内容。

此外,在近期结束的多个顶级学术会议中,腾讯  AI Lab 也入选多篇论文,位居国内企业前列,包括 ICML 2018(16篇)CVPR 2018(21篇)和此前的 NIPS 2017(8篇)

1、通往鲁棒的神经网络机器翻译之路

Towards Robust Neural Machine Translation

论文地址:https://arxiv.org/abs/1805.06130

在神经机器翻译(NMT)中,由于引入了循环神经网络(RNN)和注意力机制,上下文中的每个词都可能影响模型的全局输出结果,这有些类似于“蝴蝶效应”。也就是说,NMT 对输入中的微小扰动极其敏感,比如将输入中某个词替换成其近义词就可能导致输出结果发生极大变化,甚至修改翻译结果的极性。针对这一问题,研究者在本论文中提出使用对抗性稳定训练来同时增强神经机器翻译的编码器与解码器的鲁棒性。

上图给出了该方法的架构示意,其工作过程为:给定一个输入句子 x,首先生成与其对应的扰动输入 x',接着采用对抗训练鼓励编码器对于 x 和 x' 生成相似的中间表示,同时要求解码器端输出相同的目标句子 y。这样能使得输入中的微小扰动不会导致目标输出产生较大差异。

研究者在论文中提出了两种构造扰动输入的方法。第一种是在特征级别(词向量)中加入高斯噪声;第二种是在词级别中用近义词来替换原词。

研究表明,该框架可以扩展应用于各种不同的噪声扰动并且不依赖于特定的 NMT 架构。实验结果表明该方法能够同时增强神经机器翻译模型的鲁棒性和翻译质量,下表给出了在 NIST 汉语-英语翻译任务上的大小写不敏感 BLEU 分数。

可以看到,研究者使用极大似然估计(MLE)训练的 NMT 系统优于其它最好模型大约 3 BLEU。

2、Hyperdoc2vec:超文本文档的分布式表示

hyperdoc2vec: Distributed Representations of Hypertext Documents

论文地址:https://arxiv.org/abs/1805.03793

现实世界中很多文档都具有超链接的结构。例如,维基页面(普通网页)之间通过 URL 互相指向,学术论文之间通过引用互相指向。超文档的嵌入(embedding)可以辅助相关对象(如实体、论文)的分类、推荐、检索等问题。然而,针对普通文档的传统嵌入方法往往偏重建模文本/链接网络中的一个方面,若简单运用于超文档,会造成信息丢失。

本论文提出了超文档嵌入模型在保留必要信息方面应满足的四个标准,并且表明已有的方法都无法同时满足这些标准。这些标准分别为:

内容敏感(content awareness):超文档的内容自然在描述该超文档方面起主要作用。

上下文敏感(context awareness):超链接上下文通常能提供目标文档的总结归纳。

新信息友好度(newcomer friendliness):对于没有被其它任何文档索引的文档,需要采用适当的方式得到它们的嵌入。

语境意图敏感(context intent awareness):超链接周围的“evaluate ... by”这样的词通常指示了源超文档使用该引用的原因。

为此,研究者提出了一种新的嵌入模型hyperdoc2vec。不同于大多数已有方法,hyperdoc2vec 会为每个超文档学习两个向量,以表征其引用其它文档的情况和被引用的情况。因此,hyperdoc2vec 可以直接建模超链接或引用情况,而不损失其中包含的信息。下面给出了 hyperdoc2vec 模型示意图:

为了评估所学习到的嵌入,研究者在三个论文领域数据集以及论文分类和引用推荐两个任务上系统地比较了 hyperdoc2vec 与其它方法。模型分析和实验结果都验证了 hyperdoc2vec 在以上四个标准下的优越性。下表展示了在 DBLP 上的 F1 分数结果:

可以看到,添加了 DeepWalk 信息后基本都能得到更优的结果;而不管是否使用了 DeepWalk,hyperdoc2vec 的结果都是最优的。

3、TNet:面向评论目标的情感分类架构

Transformation Networks for Target-Oriented Sentiment Classification

论文地址:https://arxiv.org/abs/1805.01086 

开源项目:https://github.com/lixin4ever/TNet 

面向评论目标(opinion target)的情感分类任务是为了检测用户对于给定评论实体的情感倾向性。直观上来说,带注意机制的循环神经网络(RNN)很适合处理这类任务,以往的工作也表明基于这类模型的工作确实取得了很好的效果。

研究者在这篇论文中尝试了一种新思路,即用卷积神经网络(CNN)替代基于注意机制的RNN 去提取最重要的分类特征。由于 CNN 很难捕捉目标实体信息,所以研究者设计了一个特征变换组件来将实体信息引入到单词的语义表示当中。但这个特征变换过程可能会使上下文信息丢失。针对这一问题,研究者又提出了一种“上下文保留”机制,可将带有上下文信息的特征和变换之后的特征结合起来。

综合起来,研究者提出了一种名为目标特定的变换网络(TNet)的新架构,如下左图所示。其底部是一个 BiLSTM,其可将输入变换成有上下文的词表示(即 BiLSTM 的隐藏状态)。其中部是 TNet 的核心部分,由 L 个上下文保留变换(CPT)层构成。最上面的部分是一个可感知位置的卷积层,其首先会编码词和目标之间的位置相关性,然后提取信息特征以便分类。

右图则展示了一个 CPT 模块的细节,其中有一个全新设计的 TST 组件,可将目标信息整合进词表示中。此外,其中还包含一个上下文保留机制。


研究者在三个标准数据集上评估了新提出的框架,结果表明新方法的准确率和 F1 值全面优于已有方法;下表给出了详细的实验结果。

 本研究的相关代码已经开源。

4、兼具领域适应和情感感知能力的词嵌入学习

Learning Domain-Sensitive and Sentiment-Aware Word Embeddings

论文地址:https://arxiv.org/abs/1805.03801 

词嵌入是一种有效的词表示方法,已被广泛用于情感分类任务中。一些现有的词嵌入方法能够捕捉情感信息,但是对于来自不同领域的评论,它们不能产生领域适应的词向量。另一方面,一些现有的方法可以考虑多领域的词向量自适应,但是它们不能区分具有相似上下文但是情感极性相反的词。

在这篇论文中,研究者提出了一种学习领域适应和情感感知的词嵌入(DSE)的新方法,可同时捕获词的情感语义和领域信息。本方法可以自动确定和生成领域无关的词向量和领域相关的词向量。模型可以区分领域无关的词和领域相关的词,从而使我们可以利用来自于多个领域的共同情感词的信息,并且同时捕获来自不同领域的领域相关词的不同语义。

在 DSE 模型中,研究者为词汇表中的每个词都设计了一个用于描述该词是领域无关词的概率的分布。这个概率分布的推理是根据所观察的情感和上下文进行的。具体而言,其推理算法结合了期望最大化(EM)方法和一种负采样方案,其过程如下算法 1 所示。

其中,E 步骤使用了贝叶斯规则来评估每个词的 zw(一个描述领域相关性的隐变量)的后验分布以及推导目标函数。而在 M 步骤中则会使用梯度下降法最大化该目标函数并更新相应的嵌入。

研究者在一个亚马逊产品评论数据集上进行了实验,下表给出了评论情感分类的实验结果:

实验结果表明,本工作提供了一个有效的学习兼具领域适应和情感感知能力的词嵌入的方法,并提高了在句子层面和词汇层面的情感分类任务的性能。

点击文末阅读原文查看 AI影响因子。

┏(^0^)┛欢迎分享,明天见!

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存